Wikipedia-Gründer Jimmy Wales macht sich keine Sorgen um Elon Musks Grokipedia: „Ich bin nicht optimistisch, dass er im Moment etwas wirklich Nützliches schaffen wird.“

Elon Musks Wikipedia-Konkurrent Grokipedia hatte bei seinem öffentlichen Debüt einen „holprigen Start“ , aber Wikipedia-Gründer Jimmy Wales musste sich die Ergebnisse der KI nicht einmal ansehen, um zu wissen, was er erwartete.
„Ich bin nicht optimistisch, dass er im Moment etwas wirklich Nützliches schaffen wird“, sagte Wales am Dienstag auf dem CNBC Technology Executive Council Summit in New York City.
Wales hatte für Musk viele passende Worte parat, insbesondere als Reaktion auf die Vorwürfe, Wikipedia führe zu einem „Woke Bias“. „Da irrt er sich“, sagte Wales. „Seine Beschwerden über Wiki beziehen sich darauf, dass wir uns auf Mainstream-Quellen konzentrieren, und dafür entschuldige ich mich überhaupt nicht. Wir behandeln irgendwelche Spinner nicht so wie das New England Journal of Medicine, und das macht uns nicht „woke“, sagte er bei der CNBC-Veranstaltung. „Es ist ein Paradoxon. Wir sind so radikal, dass wir die New York Times zitieren.“
„Ich hatte noch keine Zeit, mir Grokipedia wirklich anzusehen, und es wird interessant sein, das zu sehen, aber anscheinend wird dort viel Lob für das Genie von Elon Musk geäußert. Daher bin ich sicher, dass das völlig neutral ist“, fügte er hinzu.
Wales‘ Seitenhiebe auf Grokipedia – das über eine eigene Wiki-Seite verfügt – drehten sich weniger um einen anhaltenden Streit mit Musk als vielmehr um seine erheblichen Bedenken hinsichtlich der Bemühungen aller großen Sprachmodelle, eine vertrauenswürdige Online-Informationsquelle zu schaffen.
„Die LLMs, die er zum Schreiben verwendet, werden massive Fehler machen“, sagte Wales. „Wir wissen, dass ChatGPT und alle anderen LLMs nicht gut genug sind, um Wiki-Einträge zu schreiben.“
Musk scheint sich des gegenteiligen Ergebnisses ebenso sicher zu sein: „Grokipedia wird Wikipedia in Bezug auf Breite, Tiefe und Genauigkeit um mehrere Größenordnungen übertreffen“, schrieb er in einem Beitrag am Dienstagabend.
Wales nannte mehrere Beispiele aus der Praxis, warum er nicht darauf vertraut, dass LLMs das, was die globale Wikipedia-Community über Jahrzehnte aufgebaut hat, zu einem Bruchteil der Kosten nachbilden können. So schätzte er die Kosten der Organisation für Hardwaretechnologie auf 175 Millionen Dollar jährlich. Demgegenüber stecken die großen Technologieunternehmen ständig zig Milliarden Dollar in KI-Projekte. Einer Schätzung der Wall Street zufolge werden die sogenannten Hyperscaler im nächsten Jahr voraussichtlich insgesamt 550 Milliarden Dollar in KI investieren.
Ein Beispiel für die Ungenauigkeit des LLM-Programms, das Wales anführte, betrifft seine Frau. Wales sagte, er lasse neue Chatbot-Modelle oft obskure Themen recherchieren, um ihre Fähigkeiten zu testen. Die Frage nach seiner Frau – einer „nicht berühmten, aber bekannten“ Person, die in der britischen Politik gearbeitet habe – führe immer zu einer „plausiblen, aber falschen“ Antwort. Jedes Mal, wenn man einen LLM-Absolventen auffordere, tiefer zu graben, fügte Wales hinzu, „ist das ein Chaos.“
Er nannte auch das Beispiel eines deutschen Wiki-Community-Mitglieds, das ein Programm zur Überprüfung der ISBN-Nummern zitierter Bücher geschrieben hatte und dabei bemerkenswerte Fehler auf eine Person zurückführen konnte. Diese Person gestand schließlich, ChatGPT verwendet zu haben, um Zitate für Textreferenzen zu finden, und der LLM „erfindet einfach gerne Bücher für einen“, sagte Wales.
Wales sagte, die Auseinandersetzungen, in die er – Musk und KI – hineingezogen wurde, untermauerten eine ernste Botschaft für Wikipedia. „Es ist wirklich wichtig für uns und die Wiki-Community, auf solche Kritik mit verstärkter Neutralität und sorgfältiger Quellenauswahl zu reagieren“, sagte er. „Wir sollten nicht ‚Wokepedia‘ sein. Das sollten wir nicht sein und das wollen die Leute auch nicht von uns. Es würde das Vertrauen untergraben.“
Wales ist der Meinung, dass die Öffentlichkeit und die Medien Wikipedia oft zu viel zutrauen. In ihren Anfängen, sagt er, sei die Seite nie so schlecht gewesen, wie die Witze darüber gemacht wurden. Aber jetzt, sagt er, „sind wir nicht so gut, wie sie denken. Natürlich sind wir viel besser als früher, aber es gibt noch so viel zu tun.“
Er erwartet, dass die Herausforderungen durch Technologie und Fehlinformationen zunehmen werden. Die Möglichkeiten, mithilfe von LLMs gefälschte Websites mit plausiblem Text zu erstellen, werden immer besser und können die Öffentlichkeit wahrscheinlich täuschen. Er sagt jedoch, dass es ihnen schwer fallen wird, die Wiki-Community zu täuschen, die 25 Jahre lang vertrauenswürdige Informationsquellen studiert und diskutiert hat. „Aber es wird viele Leute täuschen, und das ist ein Problem“, sagte er.
In manchen Fällen könne dieselbe neue Technologie, die „völlig nutzloses Zeug erfindet“, auch für Wikipedia nützlich sein, sagte er. Wales arbeitet daran, begrenzte Bereiche zu finden, in denen KI zusätzliche Informationen in bestehenden Quellen aufdecken kann, die in ein Wiki aufgenommen werden sollten. Diese Art der Nutzung generischer KI beschrieb er als derzeit „ziemlich okay“.
„Vielleicht hilft es uns, unsere Arbeit schneller zu erledigen“, sagte er. Diese Feedbackschleife könnte für die Site sehr nützlich sein, wenn sie ein eigenes LLM entwickeln und trainieren könnte. Die damit verbundenen Kosten haben die Site jedoch dazu veranlasst, von formellen Bemühungen abzuwarten, während sie die Technologie weiter testet, fügte er hinzu.
„Wir sind wirklich froh, dass Wiki nun Teil der weltweiten Infrastruktur ist, was für uns eine ziemlich große Belastung darstellt. Wenn also Leute sagen, wir seien voreingenommen, müssen wir das ernst nehmen und an allem arbeiten, was damit zusammenhängt“, sagte Wales.
Aber er konnte es sich nicht verkneifen, es auch anders auszudrücken: „Wir sprechen über Fehler, die ChatGPT macht. Stellen Sie sich eine KI vor, die ausschließlich auf Twitter trainiert wurde. Das wäre eine verrückte, wütende KI, die auf Unsinn trainiert wurde“, sagte Wales.
CNBC



